随着人工智能系统的复杂化和普及,人们对风险的认识也相应提高(Sorkin 等人2023)。作为回应,越来越多的人呼吁更加重视人工智能行业的披露和透明度(NTIA 2023;OpenAI 2023b),提案范围从标准化技术披露的使用,如模型卡(Mitchell 等人2019),到尚未指定的许可制度(Sindhu 2023)。由于人工智能价值链很复杂,参与者代表着各种专业知识、观点和价值观,因此透明度披露的消费者能够了解披露所涉及的人工智能系统的风险至关重要。在本文中,我们提出了一种风险分析标准,可以指导下游决策,包括对进一步的风险评估进行分类、为采购和部署提供信息以及指导监管框架。该标准建立在我们提出的人工智能风险分类法的基础上,该分类法反映了文献中提出的各种风险的高级分类。我们概述了构建信息风险概况所需的大量数据源,并提出了一种基于模板的方法,将风险信息整理成标准而灵活的结构。我们使用公开信息将这种方法应用于许多著名的人工智能系统。最后,我们讨论了概况的设计决策和未来的工作。
![arXiv:2309.13176v1 [cs.AI] 2023 年 9 月 22 日PDF文件第1页](/bimg/1/133f4baa08cbfe071afe9dd634e39ab400b62a1b.webp)
![arXiv:2309.13176v1 [cs.AI] 2023 年 9 月 22 日PDF文件第2页](/bimg/b/b09de9db1acd0acbdeb2efd1e703c6ac4e206b79.webp)
![arXiv:2309.13176v1 [cs.AI] 2023 年 9 月 22 日PDF文件第3页](/bimg/b/b6fc0b3d3edab38d2591488f1d8806b401e06ba1.webp)
![arXiv:2309.13176v1 [cs.AI] 2023 年 9 月 22 日PDF文件第4页](/bimg/0/0de8280901c6aa420400d6492c40eaecd2e10738.webp)
![arXiv:2309.13176v1 [cs.AI] 2023 年 9 月 22 日PDF文件第5页](/bimg/6/6657e4d2587dc9bc0b389b31de9a3e76ee750cf0.webp)
